Sam Altman reconoce que la teoría de "internet muerto" se está convirtiendo en realidad

Un comentario reciente de Sam Altman, CEO de OpenAI, volvió a poner en circulación una de las ideas más inquietantes sobre el futuro digital: que internet, tal como lo conocimos, podría haber dejado de existir. No en términos técnicos, sino como espacio humano.
“Nunca tomé muy en serio la teoría de internet muerto, pero parece que ahora hay muchísimas cuentas manejadas por modelos de lenguaje”, escribió Altman en X, reconociendo que quizás no era tan descabellada la hipótesis que plantea que la web será completamente tomada por bots de inteligencia artificial.
La Dead Internet Theory (Teoría de Internet Muerto, en inglés) surgió en 2021 como una especulación conspirativa: que gran parte de la actividad online ya no es genuina, sino generada automáticamente.
En ese momento, la idea parecía exagerada. Pero en los últimos años, con el avance de los modelos de lenguaje como ChatGPT y el crecimiento descontrolado de contenidos generados por IA, esa hipótesis comenzó a parecer cada vez más real.
La paradoja es que quien advierte sobre la posible “muerte” de internet es Sam Altman, la figura más visible del ecosistema de inteligencia artificial. Como CEO de OpenAI, su nombre está detrás del lanzamiento de ChatGPT, la herramienta que aceleró la proliferación de contenido generado por máquinas y la multiplicación de cuentas automatizadas.
En 2024, por primera vez, el tráfico en la red proveniente de bots superó al de los humanos.
Las cifras son elocuentes. En 2024, por primera vez, el tráfico en la red proveniente de bots superó al de los humanos. Lo confirmó un informe de la firma de ciberseguridad Imperva, que reveló que el 51% de las visitas a sitios web son protagonizadas por programas automatizados.
Estos bots no solo replican contenidos: interactúan, posicionan publicaciones, y en muchos casos, imitan el comportamiento humano con una precisión que vuelve difícil distinguir qué es real y qué no.
Esto no ocurre solo en redes sociales o foros. El fenómeno ya alcanza a medios de comunicación, plataformas de noticias, sitios de comercio electrónico y motores de búsqueda.
Desde que se popularizó el uso de generadores de texto, se multiplicaron los artículos creados por IA que logran escalar en los resultados de Google. Según datos de Originality AI, la presencia de textos artificiales en los primeros resultados del buscador creció un 400% desde la salida de ChatGPT.
Este tipo de contenido, muchas veces superficial o engañoso, responde a una lógica económica clara: cuanto menos se dependa de humanos para generar clics, más rentable será el negocio. Y si los usuarios no logran notar la diferencia, todo sigue funcionando.
La muerte de internet, interpretada por un generador de imágenes con IA.
El problema es que el ecosistema entero empieza a degradarse. La publicidad online, que sustenta gran parte del contenido digital, también se ve afectada. Un informe de Adalytics reveló que millones de anuncios fueron mostrados a bots en lugar de personas reales. Incluso se detectaron casos en los que los sistemas publicitarios de Google terminaban reproduciendo avisos a sus propios bots.
En paralelo, la calidad del contenido humano empieza a diluirse. Las plataformas que antes promovían la creatividad y el intercambio, hoy priorizan la cantidad y la optimización algorítmica. El resultado es una sobreproducción de información reciclada, repetitiva y diseñada más para agradar al algoritmo que para aportar valor.
Pero el riesgo no es solo que el contenido se vuelva irrelevante, sino que el propio aprendizaje digital empiece a deteriorarse. Los modelos de lenguaje como ChatGPT se entrenan a partir del material que circula en la web.
Si gran parte de ese insumo es artificial, el sistema corre el riesgo de alimentarse de su propia copia, generando un ciclo de retroalimentación que puede afectar la calidad de futuras generaciones de IA.
A esto se suma una consecuencia más sutil pero igual de preocupante: el impacto cultural. Si los textos, los tonos y las palabras que más circulan en la red provienen de inteligencias artificiales, la forma en que las personas escriben, hablan o incluso piensan, empieza a moldearse bajo ese patrón.
La web deja de ser un reflejo de la sociedad y se convierte en una versión filtrada, empobrecida y automatizada de sí misma.
Hoy, buena parte del contenido que se ve en redes, en blogs o incluso en noticias, responde a sistemas automáticos que maximizan clics y viralización, sin importar la veracidad ni el valor de lo que comunican. A eso se suman los deepfakes, los influencers sintéticos, los videos generados con IA y los sitios de noticias ficticias creados para manipular la opinión pública.
El escenario que parecía una distopía hace unos años, ahora se vuelve una posibilidad concreta: una internet donde los humanos ya no son protagonistas, sino simples consumidores pasivos de un contenido producido por y para máquinas. Y aunque todavía quedan espacios de autenticidad, cada vez es más difícil encontrarlos en medio del ruido artificial.
Clarin